Crescimento logarítmico
Em Matemática, o crescimento logarítmico descreve um fenômeno cujo tamanho ou custo pode ser descrito como uma função Logaritmo de alguma entrada (ex. y = C log (x)). Note que qualquer base logarítmica pode ser usada, já que uma pode ser convertida em outra multiplicando por uma constante fixa.[1] Crescimento logarítmico é o inverso de crescimento exponencial e é muito lento.[2]
Um exemplo familiar de crescimento logarítmico é o número de dígitos necessários para representar um número, N, na Notação posicional, que cresce como logb (N), onde b é a base do sistema usado (por exemplo, 10 para decimal aritmético)[3]. Em matemática avançada, as somas parciais de uma série harmônica
crescem logaritmicamente.[4]Na construção de algoritmos computacionais, crescimento logarítmico, e outras variantes relacionadas são indicações de eficiência desejáveis, e ocorrem na análise de complexidade de tempo de algoritmos como pesquisa binária.[1]
Crescimento logarítmico pode levar a aparentes paradoxos, como no sistema martingale de roleta, onde os ganhos potenciais antes da falência crescem como o logaritmo do dinheiro do apostador.[5] Também tem um papel no paradoxo de São Petersburgo.[6]
Em Microbiologia, a rapidamente crescente fase de crescimento exponencial de uma cultura celular é as vezes chamada de crescimento logarítmico. Durante esse estágio de crescimento bacterial, o numero de novas células surgindo é proporcional à população. Essa confusão terminológica entre crescimento logarítmico e crescimento exponencial pode ser possivelmente explicado pelo fato de curvas de crescimento exponencial podem virar retas representando-as usando uma escala logarítmica para o eixo de crescimento.[7]
Ver também
[editar | editar código-fonte]- Logaritmo iterado - Um modelo de crescimento ainda menor
Referências
- ↑ a b Litvin, G. (2009), Programming With C++ And Data Structures, 1E, ISBN 9788125915454, Vikas Publishing House Pvt Ltd, pp. AAL-9 – AAL-10
- ↑ Szecsei, Denise (2006), Calculus, ISBN 9781564149145, Career Press, pp. 57–58.
- ↑ Salomon, David; Motta, G.; Bryant, D. (2007), Data Compression: The Complete Reference, ISBN 9781846286032, Springer, p. 49.
- ↑ Clawson, Calvin C. (1999), Mathematical Mysteries: The Beauty and Magic of Numbers, ISBN 9780738202594, Da Capo Press, p. 112.
- ↑ Tijms, Henk (2012), Understanding Probability, ISBN 9781107658561, Cambridge University Press, p. 94.
- ↑ Friedman, Craig; Sandow, Sven (2010), Utility-Based Learning from Data, ISBN 9781420011289, CRC Press, p. 97.
- ↑ Barbeau, Edward J. (2013), More Fallacies, Flaws & Flimflam, ISBN 9780883855805, Mathematical Association of America, p. 52.